理论上,从理论上分析$ \ ell_ {1} $的典型学习性能 - 正规化的线性回归($ \ ell_1 $ -linr),用于使用统计力学中的副本方法进行模型选择。对于顺磁阶段的典型随机常规图,获得了对$ \ ell_1 $ -LinR的典型样本复杂度的准确估计。值得注意的是,尽管模型拼写错误,$ \ ell_1 $ -linr是模型选择,其与$ \ ell_ {1} $ - 正常化的逻辑回归($ \ ell_1 $ -logr),即,$ m = \ mathcal {o} \ left(\ log n \ light)$,其中$ n $是ising模型的变量数。此外,我们提供了一种有效的方法,可以准确地预测$ \ ell_1 $ -Linr的非渐近行为,以便适度$ M,N $,如精度和召回。仿真在理论预测和实验结果之间表现出相当愉快的一致性,即使对于具有许多环路的图表,也支持我们的研究结果。虽然本文主要侧重于$ \ ell_1 $ -Linr,但我们的方法很容易适用于精确地表征广泛类别的$ \ ell_ {1} $的典型学习表演 - 正常化$ M $-estimators,包括$ \ ell_1 $ - LogR和互动筛查。
translated by 谷歌翻译
我们引入了责任感敏感安全性(RSS)的目标延长,这是一种基于规则的自动驾驶系统安全保证(ADS)的方法。制定RSS规则保证目标实现 - 除了原始RSS中的避免碰撞外,还需要进行长时间的操纵序列的复杂计划。为了应对复杂性,我们基于程序逻辑引入了一个构图推理框架,其中可以系统地为较小的子赛车制定RSS规则,并将它们组合起来以获取用于较大场景的RSS规则。作为框架的基础,我们介绍了一个程序逻辑DFHL,可满足连续的动态和安全条件。我们的框架介绍了基于DFHL的工作流程,用于导出目标感知RSS规则;我们也讨论其软件支持。我们在安全体系结构中使用RSS规则进行了实验评估。它的结果表明,目标感知RSS确实有效地实现了避免碰撞和目标实现目标。
translated by 谷歌翻译
本文报告了在固体表面上溅出的滴滴和时间演化的特征,这些特征是通过图像序列分类提取的,使用高度可解释的前馈神经网络(FNN),其隐藏层为零。用于训练验证和测试FNN的图像序列显示了毫米大小的乙醇滴的早期变形,这些乙醇液滴会影响亲水性玻璃基材,Weber数量范围为31-474(溅出阈值约为173)。进行特定的摄像条件和数字图像处理,以确保图像序列之间的高相似性。结果,受过训练的FNN的测试精度高于96%。值得注意的是,该特征提取表明,受过训练的FNN鉴定出空气动力学上升起的二滴液滴的时间演变,而主体的相对较高的轮廓是溅出的特征,而相对较短的薄片则是相对较短而厚的薄片。非挡板滴的功能。除了溅到和非挡块滴剂之间主体的轮廓高度的差异外,已经确定了这些特征的物理解释及其各自的时间进化。这项研究中报道的观察结果对于开发数据驱动的模拟很重要,以建模对固体表面撞击期间溅出的滴落变形。
translated by 谷歌翻译
计算机生成的全息图(CGHS)用于全息三维(3D)显示器和全息投影。使用阶段的CGHS的重建图像的质量降低,因为重建图像的幅度难以控制。迭代优化方法,例如Gerchberg-Saxton(GS)算法是提高图像质量的一个选项。它们以迭代方式优化CGHS以获得更高的图像质量。然而,这种迭代计算是耗时的,并且图像质量的改善通常是停滞的。最近,已经提出了基于深度学习的全息图计算。深神经网络直接从输入图像数据推断出CGHS。然而,它仅限于重建与全息图相同的图像。在这项研究中,我们使用深度学习来优化使用缩放衍射计算和随机相位的方法生成的阶段CGHS。通过将随机相移方法与缩放的衍射计算组合,可以处理大于全息图的缩放重建图像。与GS算法相比,所提出的方法优化高质量和速度。
translated by 谷歌翻译
识别技术允许机器人进行适当的规划和控制策略来操纵各种对象。通过组合多个感知,例如视觉和触觉,对象识别更可靠。每个物体材料的一个显着特征是其热性能,并且分类可以利用热传递,类似于人类热敏。基于热基识别的优点是通过简单地使用微小和廉价的传感器捕获温度变化来实时获得接触表面信息的优点。然而,机器人表面和接触物之间的热传递受初始温度和环境条件的强烈影响。当其温度与机器人格拉伯提示相同时,不能识别给定的物体的材料。我们使用活性温控机器人夹具提出了一种材料分类系统,以诱导热流。随后,我们的系统可以独立地从环境温度识别材料。机器人夹持器表面可以调节到与触摸物体表面不同的任何温度。我们通过将温度控制系统与学术围巾机器人集成,根据使用从抓取目标物体获得的温度数据对其进行分类来进行一些实验。
translated by 谷歌翻译
深度学习已被广​​泛用于推断强大的掌握。虽然最初用于学习掌握配置的人类标记的RGB-D数据集,但是这种大型数据集的准备是昂贵的。为了解决这个问题,通过物理模拟器生成图像,并且使用物理启发模型(例如,抽吸真空杯和物体之间的接触型号)作为掌握质量评估度量来注释合成图像。然而,这种联系方式复杂,需要通过实验进行参数识别,以确保真实的世界表现。此外,以前的研究还没有考虑机器人可达性,例如当具有高抓握质量的掌握配置由于机器人的碰撞或物理限制而无法到达目标时无法到达目标。在这项研究中,我们提出了一种直观的几何分析掌握质量评估度量。我们进一步纳入了可达性评估度量。我们通过拟议的评估度量对模拟器中的合成图像上的综合评估标准进行注释,以培训称为抽吸贪污U-Net ++(SG-U-Net ++)的自动编码器解码器。实验结果表明,我们直观的掌握质量评估度量与物理启发度量有竞争力。学习可达性有助于通过消除明显无法访问的候选者来减少运动规划计算时间。该系统实现了560pph(每小时碎片)的整体拾取速度。
translated by 谷歌翻译